查看原文
其他

再见,三上老师

网黑哥 网罗灯下黑 2023-04-02

上个星期的互联网有两件大事,一件是 GPT-4、文心一言相继发布,另一件则是三上老师突然宣布了引退。

虽然在这一天,国内重定向访问 New Bing 聊天机器人的功能失效,有小伙伴问我两者相比哪个更让人难过?但这还用问吗?

在这个职业寿命大概只有 2 年左右的行当,三上老师坚持了足足 8 年。

8 年间,主业不仅多年霸占 Fanza 通贩年度销量榜单前三,副业更是积攒了数百万粉丝,称她为这个行业的一面旗帜都不为过。

在推特上看了这个消息后,周末又去油管上看了三上老师对引退的回应。

实话实说,一句没听懂。

但我用上星期分享给大家的,基于 GPT-3.5 开发的视频总结工具 BibiGPT,帮我提炼了视频内容:

大意就是,引退是真的,感谢大家过往的支持,在 30 岁这个分水岭上,决心要专注于新工作,开启新的人生篇章了。

但实话实说,作为粉丝,除了祝福,其实更多的是遗憾,我们怎么才能把握住遗憾呢?或许 AI 绘画可以。

三上 Lora

如果你还不知道 AI 绘画成长到了什么地步,建议大家复习一下之前的介绍和教程:

👉Stable Diffusion 的介绍、👉谷歌 Colab 部署 Stable diffusion Webui 的教程、以及👉 Webui 上扩展该怎么用的教程。

在这三篇文章里,都提到了一个模型,和专门分享 AI 绘画模型的网站——

前者是 Lora,可以像打补丁那样,快速固定 AI 绘图时的人物形象、风格。

后者是 C 站,里面有收录全球网友训练的各式各样 Lora 模型。

地址:https://civitai.com

事实上,在三上悠亚老师发出引退声明的第二天,C 站上就出现了三上老师的 Lora 模型,至今已有 5000+ 的下载量。

地址:https://civitai.com/models/19239

在这个 Lora 模型的介绍下,第一句就在说:2015-2023 end of an era...

一个时代结束了,但使用这个 Lora 模型,算不算也是给硬盘中的老师留个纪念呢?

无独有偶,同样是 C 站,在引退后的第四天,有一位国内网友也分享了自己训练的 Lora 模型。

地址:https://civitai.com/models/20337

在这个 Lora 模型的简介里,作者说到,这是他学习 AI 绘画后训练的第一个模型,从三上老师的推特里,挑选了 100 张左右以自拍、日常照为主的图片。

其实这里插一句,目前高质量的训练集,除了这些岛国老师,确实很难有更好的选择,主要是选取照片的人物年龄不能相差太远,照片角度多,这样才能有高质量的Lora 模型。

所以请谨慎模仿,务必不要乱搞不该搞的,责任自负。

底层模型选用的是 ChilloutMix,训练分辨率为 512*512,每张图片训练 10 次,就生成了这个模型。

也就是说,只要你的硬件设备允许训练(显存 8G 起步),我们也能生成自己的 Lora 模型,那有没有什么办法,像在云端跑图那样,在云端训练呢?

当然有,这里分享一个同样是 Google Colab 上训练的部署脚本。

Lora_train

这个部署脚本的作者是 B 站 UP 主@BUL3SKY,之所以分享这个部署这个脚本,最直接的原因就是 UP 主更新十分及时。

你甚至能在脚本介绍里,看到 19 号凌晨 2 点的更新。。。

地址:https://colab.research.google.com/drive/1_f0qJdM43BSssNJWtgjIlk9DkIzLPadx?usp=sharing

脚本虽然有 3 大块,但 A 和 C 分别是脚本使用须知,以及无法挂在谷歌云盘的解决方案,我们需要操作的,其实都在 B 这一节。

本地处理图片

不过在训练前,我们还需要一步至关重要的准备工作,即提前准备好待训练的图集,这里我们可以选择 Webui 自带的预处理训练图片的功能实现。

当然,你也可以尝试用我们之前写过教程的 Colab 运行 Webui 实现这一步,不过相当于把图片一张张上传到云服务器,虽然图没多大,但受限于网络,图一多还是很影响速度的。

所以,更建议真心想玩的小伙伴本地处理训练图片,别管你是 A 卡,还是低配 N 卡,哪怕跑图慢成狗,裁剪图片这一步都能完成。

我就是用 4G 显存的 A 卡老爷机搞定的,本地 Webui 直接上的是 B 站 UP 主@秋叶aaaki 提供的一键部署整合包。

图像预处理界面是这样的:

源目录:这是我们本地存放图片的文件夹目录。

目标目录:这是是处理后导出的文件夹目录。

宽高:是你想要处理图片后得到的结果,不建议大,在训练模型时会爆显存,导致训练失败。

至于其他的勾选,看图上的字就好了。

如果你是第一次折腾这个,建议勾选「使用 deepbooru 生成说明文字」,什么作用?比如下图。

左边是我提供的训练图,右边是预处理时生成的文本文件,所谓训练,就是让 AI 认识学习你所提供图片的特征,进而生成新的模型。

但反直觉的是啊,文本里所标注的词条,是在 Lora 模型训练过程中,不希望被 Lora 模型所记住的词条。

所以正确保留这些文本的姿势,是你想让 Lora 模型记住什么特征,就把对应文本给删了,不想 Lora 模型保存的,留下,或我们手动自行添加。

划重点了——

预处理工具:Webui。

图片要求:最好清晰、画面不要太乱太杂,最好抠掉背景。

文本标签:留下的是我们不想要的,删掉的是我们想要的。

然后你会得到一个一一对应的文件夹。

可以给这个文件夹起个名字,格式是「数字_名称」,数字代表后续训练过程中的重复次数(一般 5-10),名称就随大家起咯。

至于这个文件夹做好了放哪里?以这次我们使用的 Google Colab 举例,当然是放到谷歌云盘上。

在谷歌云盘上,在初始目录里的,新建一个名为「Lora」的文件夹。

然后再新建一个名为「input」,一个名为「output」的文件夹。

我们把刚刚处理好文件夹扔到 input 里,注意,是整个文件夹扔进去哦,而 output 存放的则是一会我们训练好的 Lora 模型。

开始训练

准备工作做完了,就可以着手使用部署脚本,开始训练了。

展开 B 这一节的内容,我们先挂载自己的谷歌云盘,点左侧运行小按钮就能运行代码。

然后,我们就可以在左侧文件里,找到名为「drive」的谷歌云盘了,里面是我们刚刚配置好的样子。

然后就是比葫芦画瓢,依次运行 5 里面的两段代码,只要你的目录设置正确,这里的不会报错的,不过配置环境以及拷贝图集的速度会比较慢,5-6 分钟左右,请耐心等待。

等 5 跑完了,就需要开始选择训练时的底模了,什么是底模?

Lora 模型的作用,是像打补丁那样,覆盖掉原有模型的参数,在生成图片时,变成特定风格的人物。

原有模型,就是我们要选择的训练底模,比如人物模型 ChilloutMix,我们要做的就是——

1、把 base_model 换成 Download by you。

2、模型链接,一定是要下载链接。

3、根据下载文件的后缀,选择对应的后缀。

如果你不知道模型后缀是什么,不妨点一下下载,自己瞅瞅看。

这一步运行完成后,依次运行 7(训练参数)、8(开始训练)的代码,AI 就开始训练学习啦。

参数其实也很重要,至于为什么不讲?当然是有更好的教程,我也是从这里一点点学的:

脚本作者的讲解:https://www.bilibili.com/video/BV1rs4y1o7V8/

另一位大佬关于正则化的讲解:https://www.bilibili.com/video/BV1GM411E7vk

前面打标签的也有教程,具体的可以看这个:https://www.bilibili.com/video/BV1ZM411c7aj

关于预处理、以及本地训练的操作,可以看秋叶大佬的这个:https://www.bilibili.com/video/BV1fs4y1x7p2

等训练结束,谷歌云盘 output 里,就会出现你刚刚训练的 Lora 模型啦,有很多个,数字越大越精准,但效果好坏不一定,建议把数字大的那两个拿出来跑图。

这是我用自己训练的 Lora 模型,跑的图:

下滑有更多

结语

其实今天这篇就两节内容,一节是感慨一个时代的结束,我还让 ChatGPT 帮我以「再见三上悠亚」为题,写了一篇诗,味很对。

另外一节算是 AI 云端炼 Lora 模型的基础教程,这虽然不是像 AI 绘画那样有手就行,还需要动动脑子,但至少这么操作下来是可以跑通的。

昨天,我们的「ChatGPT 魔法书」不是正式开车了嘛,在这里先感谢上车的小伙伴们的支持,本来我还想着撑死了 200 人左右,结果最后上车了 1000 多位小伙伴,再次感谢大家的信任。

社区运营我们确实是新手,昨天手忙脚乱的,但我们也会像ChatGPT一样快速迭代,每天进步一点点,一周一个新模样。包括内容这一块放心,干货绝对少不了。

对 ChatGPT 感兴趣,对 AI 绘画感兴趣,而且还没上车的小伙伴,抓紧时间上车啦。

对于还没上车的小伙伴,按照之前我们说的,本来是每进 100 人涨 10 元,今天的价位应该是 229 元/年了,但这毕竟是第一周运营,我们讨论过后决定:

截止到本周五晚上 12 点之前,首周限时优惠价 199 元/年周六恢复299元/年

除了开张顺利的兴奋,更多的是沉甸甸的压力,我说什么来着,要的就是这份压力,咱们一起加油。

 QQ 群:729224889  网站:wldxh.com

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存